Die Algorithmen des Datenkonzerns Facebook stehen immer wieder in der Kritik, da sie besonders emotionalisierende Aussagen eher begünstigen als solche mit überprüften Fakten. Was Menschen wütend macht, hat tendenziell eine größere Reichweite und erlaubt somit mehr Werbeeinnahmen für das Unternehmen. Daran grundsätzlich etwas zu ändern, würde bedeuten, das Geschäftsmodell entweder radikal zu ändern oder auf Einnahmen zu verzichten. Beides ist nicht zu erwarten.
Die Washington Post berichtete in der vergangenen Woche über eine interne Facebook-Studie, die die Inhalte zur Corona-Impfung auf der Plattform untersucht. Für die Studie teilte der Datenkonzern US-amerikanische Nutzer:innen in 638 Gruppen ein, die jeweils mindestens drei Millionen Profile umfassten. Unklar bleibt leider, nach welchen Kriterien Facebook die Gruppen erstellte. Diese Intransparenz erschwert die methodische Bewertung der Studie.
Eine kleine Gruppe verunsichert viele
Interessant sind die Ergebnisse dennoch: Fünfzig Prozent der Inhalte, die Facebook als potenziell verunsichernd einstuft, stammen aus nur zehn der 638 Gruppen. In der Gruppe, die den größten Teil zu den problematischen Inhalten beitrug, stammte wiederum fünfzig Prozent der Inhalte von nur 111 Nutzer:innen, bei mindestens drei Millionen Mitgliedern in jeder Gruppe.
Das zeigt: Eine sehr kleine Zahl an Menschen schafft es in den USA, gezielt verunsichernde oder falsche Informationen sehr weit zu verbreiten. Eine Umfrage zeigte kürzlich, dass sich 30 Prozent der US-Amerikaner:innen nicht impfen lassen wollen. Unter Anhänger:innen der Republikanischen Partei liegt der Anteil der Impfunwilligen mit 41 Prozent sogar noch deutlich höher.
Eins zu eins auf Deutschland übertragen lassen sich die Studienergebnisse nicht. Der starke öffentlich-rechtliche Rundfunk hilft bei der Verbreitung von faktenbasierten Informationen zur Pandemie, sodass soziale Medien eine weniger große Rolle spielen als in den USA. Dennoch finden sich auf Facebook auch viele deutsche Seiten, die Falschinformationen zu Impfungen verbreiten oder gezielt verunsichern. Bei einer Suche innerhalb der Plattform mit den Stichworten „Corona“ und „Impfung“ stoßen Nutzer:innen schnell auf Facebook-Seiten wie „Nein zum Impfzwang gegen Corona“ oder „Corona Impfschäden“, die Verschwörungsideologien zur Pandemie und zur Impfung teilen.
Die Facebook-Studie deckt auch eine große Überlappung zwischen der Gruppe der Impfgegner:innen und der QAnon-Bewegung in den USA auf. Diese Bewegung verbreitet immer wieder haltlose Verschwörungsmythen und verknüpft das Impfthema mit diesen Erzählungen. Damit schüren sie gezielt Ängste und versuchen, das Vertrauen in die Politik und das Gesundheitswesen zu zerstören. Die Ideologie fasste im Zuge der Pandemie auch in Deutschland Fuß. Ihre Anhänger:innen sind auf sogenannten Querdenker-Demos präsent.
Schwierige Unterscheidung zwischen Desinformation und Verunsicherung
Facebook wird immer wieder für die Verbreitung der QAnon-Ideologie mitverantwortlich gemacht. Im Oktober kündigte der Konzern an, Konten zu löschen, die mit QAnon in Verbindung gebracht werden können. Das heißt aber nicht, dass die Bewegung von der Plattform verschwindet. Die Anhänger:innen denken sich immer wieder neue Codes aus, um dem Löschen zu entkommen und sich trotzdem weiter zu vernetzen.
Die Ergebnisse der Facebook-Studie fördern ein Problem zu Tage, das bei Diskussionen über die Moderation von Inhalten auf sozialen Netzwerken immer wieder besprochen wird: Es ist ein schmaler Grat zwischen dem Schutz der Nutzer:innen vor Falschinformationen und dem Einschränken der Meinungsfreiheit.
Beim Thema Impfungen wird das besonders deutlich. Oftmals ist es schwer zu unterscheiden, wo Nutzer:innen Bedenken oder Fragen äußern und wo sie gezielt andere Menschen verunsichern wollen. Denn dafür braucht es oftmals gar keine Falschinformationen. Es reicht manchmal aus, einzelne richtige Aussagen aus dem Gesamtzusammenhang zu reißen, um sie bedrohlich wirken zu lassen.
Unsicherheit über Astra-Zeneca-Impfstoff
Ein Beispiel: Stirbt ein frisch geimpfter Mensch, beinhaltet diese Information erstmal nur, dass die Person geimpft wurde und im Anschluss verstorben ist. Sie sagt selbst nichts darüber aus, ob zwischen beiden Ereignissen ein Zusammenhang besteht. Doch gerade wenn man bei der eigenen Impfentscheidung ohnehin verunsichert ist, stellt man diesen Zusammenhang beinahe automatisch her.
Postings mit derartigen Inhalten aber einfach zu löschen, ist auch keine Lösung, denn es dürfte schwer sein, allgemeingültige Regeln zu finden, wann eine derartige Information manipulativ ist und wann sie eine berechtigte Unsicherheit ausdrückt. Das beste Beispiel ist der aktuelle Impfstopp in Deutschland und mehreren anderen europäischen Ländern für den Astra-Zeneca-Impfstoff. Insgesamt wurden bereits 1,6 Millionen Menschen mit dem Impfstoff geimpft, sieben davon erlitten eine besondere Form der Thrombose.
Sieben von 1,6 Millionen erscheint zunächst wie ein sehr geringer Anteil, insbesondere, weil auch ohne Corona-Impfung Menschen an Thrombosen und den daraus folgenden Erkrankungen sterben. Nun ist aber die Ursache der Thrombosen in diesen sieben Fällen eine sehr seltene. Eine Prüfung des Impfstoffs wurde notwendig, um auszuschließen, dass ein Zusammenhang besteht. Natürlich ist der Impfstopp trotzdem umstritten, denn auch eine Covid19-Erkrankung kann das Thrombose-Risiko erhöhen.
Noch vor dem deutschen Impfstopp kritisierten Forscher:innen die Maßnahmen in Ländern wie Dänemark oder Norwegen. Nach dem deutschen Impfstopp äußerte sich Anke Huckriede, Professorin für Vakzinologie der Universität Groningen, gegenüber dem Science Media Center so:
Vergangene Woche sah es so aus, als würde es sich bei den aufgetretenen Problemen um gewöhnliche Thrombosen handeln. Die kommt recht häufig vor, was es relativ unwahrscheinlich machte, dass ein ursächlicher Zusammenhang mit der Impfung vorliegen würde. Nun gibt es anscheinend neuere Informationen, dass es sich um eine sehr spezielle, selten vorkommende Form von Thrombose handelt, wovon nun kurz nach Impfung anscheinend einige Fälle aufgetreten sind. Das ist selbstverständlich schon verdächtig und sollte untersucht werden. Fakt bleibt aber, dass diese Thrombosen sehr selten beobachtet werden nach einer Impfung mit dem AstraZeneca-Vakzin, nach meinen bisherigen Informationen in deutlich weniger als 1 in 100.000 Geimpften.
Haarsträubende Desinformation auch auf Instagram
Doch gerade weil eine gesellschaftliche Debatte über die Risiken von Krankheit, Impfstoff und fehlendem Vertrauen notwendig ist, dürfen Postings zu diesen Themen nicht einfach gelöscht werden, nur weil sie Menschen in sozialen Medien verunsichern könnten. Impfgegner:innen nutzen der Facebook-Studie zufolge diese Grauzone zwischen der notwendigen gesellschaftlichen Debatte über Risiken einerseits und gezielter Verunsicherung andererseits aus, um ihre Ideologie in ihrem direkten Umfeld, aber auch darüber hinaus zu verbreiten.
Mit diesem Problem steht Facebook aber nicht allein da. Zum Datenkonzern gehört ebenfalls die Plattform Instagram. Vergangene Woche erschien eine Studie des „Center for Countering Digital Hate“, die Missstände in Instagrams Empfehlungsalgorithmus aufzeigte. Wer auf Instagram Impfgegner:innen folgte, bekam demnach Empfehlungen für antisemitische und verschwörungsideologische Inhalte angezeigt, darunter auch QAnon-Seiten.
Das passierte auch Nutzer:innen, die neben den Seiten der Impfgegner:innen auch offiziellen Stellen für Gesundheitsinformationen folgten. Desinformation umgehen konnten nur solche Nutzer:innen, die ausschließlich offiziellen Stellen folgten. Die Studie stellte fest, dass auch Seiten zu Themen wie Wellness oftmals direkte Falschinformationen zum Impfen verbreitete oder die Nutzer:innen über Empfehlungen des Algorithmus zu solchen Falschinformationen führten.
Pinterest bevorzugt offizielle Gesundheitsinformation
Auch algorithmusbasierte Online-Händler wie Amazon empfehlen Produkte, die Verschwörungsideologien und Falschinformationen verbreiten. Das zeigte eine Recherche von netzpolitik.org im September des vergangenen Jahres. Bei der Suche nach dem Begriff „Corona“ zeigt der Shop seinen Kund:innen prominent die Bücher von Karina Reiß und Sucharit Bhakdi an, die in der Pandemie zu Bestsellern wurden, obwohl sie in Faktenchecks durchfallen [€] und sich Reiß’ Arbeitgeber, die Universität Kiel, schon im letzten Sommer von den Aussagen der Biochemikerin distanziert hatte.
Auch Pinterest hat immer wieder mit Desinformation zu Gesundheitsthemen zu kämpfen. In diesem Bereich spielt die Plattform eine große Rolle, da sie besonders oft von Müttern genutzt wird, die in vielen Familien noch immer die Gesundheitsentscheidungen treffen. Impfgegner:innen waren dort besonders präsent. 2019 entschied Pinterest deswegen, bei Suchen zum Thema Impfen nur noch Inhalte von öffentlichen oder wissenschaftlichen Stellen anzuzeigen.
Eine Studie untersuchte die Folgen dieser Entscheidung für Informationen zur HPV-Impfung und kam zu dem Schluss, dass die Verbreitung von Desinformation erfolgreich eingedämmt werden konnte. Es war dadurch aber insgesamt viel weniger Inhalt zur HPV-Impfung vorhanden, da nicht viele öffentliche Institutionen oder Expert:innen auf der Plattform aktiv waren. Außerdem hatten nicht alle Suchergebnisse einen Bezug zu HPV-Impfungen; einige informierten über andere Impfungen, manche hatten gar nichts mit dem Thema zu tun.
Die Pinterest-Studie befasste sich außerdem nur mit den Suchergebnissen, da die Plattform nur hier die Richtlinien geändert hatte. Es ist also fraglich, ob die Maßnahmen großen Einfluss auf die Verbreitung von Desinformation hatten, da Nutzer:innen weiterhin Falschinformationen posten und untereinander verbreiten können.
0 Ergänzungen
Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.